AI资讯新闻榜单内容搜索- AI

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  AI
罗永浩的 AI 助理 “J1 Assistant” 正式上线,让我们看看有哪些破坏性创新(手动狗头)

罗永浩的 AI 助理 “J1 Assistant” 正式上线,让我们看看有哪些破坏性创新(手动狗头)

罗永浩的 AI 助理 “J1 Assistant” 正式上线,让我们看看有哪些破坏性创新(手动狗头)

前俩天罗永浩旗下公司细红线员工透露公司会上线一款AI产品,昨天,罗永浩旗下的人工智能初创项目 Jarvis 就悄然上线了一款名为 “J1Assistant” 的 AI 助理软件。目前该软件仅在海外提供安卓版本,官网访问限制了国内用户的 IP 地址。J1Assistant 的推出标志着罗永浩在人工智能领域的新一次尝试,期待能在这个竞争激烈的市场中找到一席之地。

来自主题: AI资讯
10367 点击    2025-01-05 10:42
揭秘OpenAI AI进化论

揭秘OpenAI AI进化论

揭秘OpenAI AI进化论

当你用正确的方式优化模型,给模型指明正确的方向,无论什么问题,它们都会倾尽全力去学习,去解决问题。如果你的愿景足够吸引人,如果你能创建一个人们愿意加入的公司,一个实践合理做法的组织,同时还能在生态系统中保持其地位,那么其他人会效仿你。尤其当你做得比他们更好时,他们会被迫改变行为,这种影响比你作为下属去和他们争论要更具说服力。

来自主题: AI资讯
4930 点击    2025-01-05 10:26
AI 医疗赛道最受关注的独角兽:5000万ARR、25亿估值,AI Scribe场景PMF已验证

AI 医疗赛道最受关注的独角兽:5000万ARR、25亿估值,AI Scribe场景PMF已验证

AI 医疗赛道最受关注的独角兽:5000万ARR、25亿估值,AI Scribe场景PMF已验证

在 LLM 落地场景中,医疗领域的应用开始展现出比较高的确定性,尤其是 AI scribe 产品能解决临床文档记录枯燥、耗时这一行业痛点。Abridge 是其中最有代表性的公司,训练了专用于临床文档的 ASR 和文本生成模型,能够替代 90% 左右的人工工作量。

来自主题: AI资讯
4934 点击    2025-01-04 15:54
Agent 炒作一年仍未落地,99% 不懂 AI 的人和剩下 1 % 产生了鸿沟

Agent 炒作一年仍未落地,99% 不懂 AI 的人和剩下 1 % 产生了鸿沟

Agent 炒作一年仍未落地,99% 不懂 AI 的人和剩下 1 % 产生了鸿沟

万字长文盘点 2024,展望 2025 2024 年,大语言模型(LLM)迎来了翻天覆地的变化。让我们一起回顾过去一年中这个领域的重大发现,梳理其中的关键主题和标志性时刻。

来自主题: AI资讯
8056 点击    2025-01-04 12:24
Sarah Guo总结2024年AI现状:应用层的价值被低估了

Sarah Guo总结2024年AI现状:应用层的价值被低估了

Sarah Guo总结2024年AI现状:应用层的价值被低估了

在今年的 NeurIPS 2024 大会上,硅谷最著名的 VC 之一 Conviction Capital 创始人 Sarah Guo 和合伙人 Pranav Reddy 做了一场 “AI 创业公司的现状(The State of AI Startups)”的分享。

来自主题: AI资讯
10181 点击    2025-01-04 12:05
2025 年 AI 十大趋势:范式转移,变局正当时

2025 年 AI 十大趋势:范式转移,变局正当时

2025 年 AI 十大趋势:范式转移,变局正当时

2024 年初,我们明显感受到 GenAI(生成式人工智能)仍将是技术发展和风险投资的重点方向。在顶尖的 AI 实验室算力需求的推动下,模型层继续吸引了最多的资本投入。代码辅助、营销和客户支持等场景的落地正在加速,同时随着巨头们加入这场军备竞赛,全球资本支出也在增加。

来自主题: AI资讯
10251 点击    2025-01-04 11:51
从 Anthropic,看见 Google 曾经的样子

从 Anthropic,看见 Google 曾经的样子

从 Anthropic,看见 Google 曾经的样子

Anthropic 的崛起是2024年全球 AI 产业最受瞩目的现象之一,它是 OpenAI 强有力的挑战者,令很多厌倦了 OpenAI 式虚张声势和夸大其词的 AI 研究者和开发者耳目一新。

来自主题: AI资讯
6297 点击    2025-01-04 11:44
数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

最近 AI 社区很多人都在讨论 Scaling Law 是否撞墙的问题。其中,一个支持 Scaling Law 撞墙论的理由是 AI 几乎已经快要耗尽已有的高质量数据,比如有一项研究就预计,如果 LLM 保持现在的发展势头,到 2028 年左右,已有的数据储量将被全部利用完。

来自主题: AI技术研报
9635 点击    2025-01-03 15:46